1,404 research outputs found

    Thermodynamic analysis of indirect injection diesel engine operation

    Get PDF
    Imperial Users onl

    Assessing, monitoring and mapping forest resources in the Blue Nile Region of Sudan using an object-based image analysis approach

    Get PDF
    Following the hierarchical nature of forest resource management, the present work focuses on the natural forest cover at various abstraction levels of details, i.e. categorical land use/land cover (LU/LC) level and a continuous empirical estimation of local operational level. As no single sensor presently covers absolutely all the requirements of the entire levels of forest resource assessment, multisource imagery (i.e. RapidEye, TERRA ASTER and LANDSAT TM), in addition to other data and knowledge have been examined. To deal with this structure, an object-based image analysis (OBIA) approach has been assessed in the destabilized Blue Nile region of Sudan as a potential solution to gather the required information for future forest planning and decision making. Moreover, the spatial heterogeneity as well as the rapid changes observed in the region motivates the inspection for more efficient, flexible and accurate methods to update the desired information. An OBIA approach has been proposed as an alternative analysis framework that can mitigate the deficiency associated with the pixel-based approach. In this sense, the study examines the most popular pixel-based maximum likelihood classifier, as an example of the behavior of spectral classifier toward respective data and regional specifics. In contrast, the OBIA approach analyzes remotely sensed data by incorporating expert analyst knowledge and complimentary ancillary data in a way that somehow simulates human intelligence for image interpretation based on the real-world representation of the features. As the segment is the basic processing unit, various combinations of segmentation criteria were tested to separate similar spectral values into groups of relatively homogeneous pixels. At the categorical subtraction level, rules were developed and optimum features were extracted for each particular class. Two methods were allocated (i.e. Rule Based (RB) and Nearest Neighbour (NN) Classifier) to assign segmented objects to their corresponding classes. Moreover, the study attempts to answer the questions whether OBIA is inherently more precise at fine spatial resolution than at coarser resolution, and how both pixel-based and OBIA approaches can be compared regarding relative accuracy in function of spatial resolution. As anticipated, this work emphasizes that the OBIA approach is can be proposed as an advanced solution particulary for high resolution imagery, since the accuracies were improved at the different scales applied compare with those of pixel-based approach. Meanwhile, the results achieved by the two approaches are consistently high at a finer RapidEye spatial resolution, and much significantly enhanced with OBIA. Since the change in LU/LC is rapid and the region is heterogeneous as well as the data vary regarding the date of acquisition and data source, this motivated the implementation of post-classification change detection rather than radiometric transformation methods. Based on thematic LU/LC maps, series of optimized algorithms have been developed to depict the dynamics in LU/LC entities. Therefore, detailed change “from-to” information classes as well as changes statistics were produced. Furthermore, the produced change maps were assessed, which reveals that the accuracy of the change maps is consistently high. Aggregated to the community-level, social survey of household data provides a comprehensive perspective additionally to EO data. The predetermined hot spots of degraded and successfully recovered areas were investigated. Thus, the study utilized a well-designed questionnaire to address the factors affecting land-cover dynamics and the possible solutions based on local community's perception. At the operational structural forest stand level, the rationale for incorporating these analyses are to offer a semi-automatic OBIA metrics estimates from which forest attribute is acquired through automated segmentation algorithms at the level of delineated tree crowns or clusters of crowns. Correlation and regression analyses were applied to identify the relations between a wide range of spectral and textural metrics and the field derived forest attributes. The acquired results from the OBIA framework reveal strong relationships and precise estimates. Furthermore, the best fitted models were cross-validated with an independent set of field samples, which revealed a high degree of precision. An important question is how the spatial resolution and spectral range used affect the quality of the developed model this was also discussed based on the different sensors examined. To conclude, the study reveals that the OBIA has proven capability as an efficient and accurate approach for gaining knowledge about the land features, whether at the operational forest structural attributes or categorical LU/LC level. Moreover, the methodological framework exhibits a potential solution to attain precise facts and figures about the change dynamics and its driving forces.Da das Waldressourcenmanagement hierarchisch strukturiert ist, beschäftigt sich die vorliegende Arbeit mit der natürlichen Waldbedeckung auf verschiedenen Abstraktionsebenen, das heißt insbesondere mit der Ebene der kategorischen Landnutzung / Landbedeckung (LU/LC) sowie mit der kontinuierlichen empirischen Abschätzung auf lokaler operativer Ebene. Da zurzeit kein Sensor die Anforderungen aller Ebenen der Bewertung von Waldressourcen und von Multisource-Bildmaterialien (d.h. RapidEye, TERRA ASTER und LANDSAT TM) erfüllen kann, wurden zusätzlich andere Formen von Daten und Wissen untersucht und in die Arbeit mit eingebracht. Es wurde eine objekt-basierte Bildanalyse (OBIA) in einer destabilisierten Region des Blauen Nils im Sudan eingesetzt, um nach möglichen Lösungen zu suchen, erforderliche Informationen für die zukünftigen Waldplanung und die Entscheidungsfindung zu sammeln. Außerdem wurden die räumliche Heterogenität, sowie die sehr schnellen Änderungen in der Region untersucht. Dies motiviert nach effizienteren, flexibleren und genaueren Methoden zu suchen, um die gewünschten aktuellen Informationen zu erhalten. Das Konzept von OBIA wurde als Substitution-Analyse-Rahmen vorgeschlagen, um die Mängel vom früheren pixel-basierten Konzept abzumildern. In diesem Sinne untersucht die Studie die beliebtesten Maximum-Likelihood-Klassifikatoren des pixel-basierten Konzeptes als Beispiel für das Verhalten der spektralen Klassifikatoren in dem jeweiligen Datenbereich und der Region. Im Gegensatz dazu analysiert OBIA Fernerkundungsdaten durch den Einbau von Wissen des Analytikers sowie kostenlose Zusatzdaten in einer Art und Weise, die menschliche Intelligenz für die Bildinterpretation als eine reale Darstellung der Funktion simuliert. Als ein Segment einer Basisverarbeitungseinheit wurden verschiedene Kombinationen von Segmentierungskriterien getestet um ähnliche spektrale Werte in Gruppen von relativ homogenen Pixeln zu trennen. An der kategorische Subtraktionsebene wurden Regeln entwickelt und optimale Eigenschaften für jede besondere Klasse extrahiert. Zwei Verfahren (Rule Based (RB) und Nearest Neighbour (NN) Classifier) wurden zugeteilt um die segmentierten Objekte der entsprechenden Klasse zuzuweisen. Außerdem versucht die Studie die Fragen zu beantworten, ob OBIA in feiner räumlicher Auflösung grundsätzlich genauer ist als eine gröbere Auflösung, und wie beide, das pixel-basierte und das OBIA Konzept sich in einer relativen Genauigkeit als eine Funktion der räumlichen Auflösung vergleichen lassen. Diese Arbeit zeigt insbesondere, dass das OBIA Konzept eine fortschrittliche Lösung für die Bildanalyse ist, da die Genauigkeiten - an den verschiedenen Skalen angewandt - im Vergleich mit denen der Pixel-basierten Konzept verbessert wurden. Unterdessen waren die berichteten Ergebnisse der feineren räumlichen Auflösung nicht nur für die beiden Ansätze konsequent hoch, sondern durch das OBIA Konzept deutlich verbessert. Die schnellen Veränderungen und die Heterogenität der Region sowie die unterschiedliche Datenherkunft haben dazu geführt, dass die Umsetzung von Post-Klassifizierungs- Änderungserkennung besser geeignet ist als radiometrische Transformationsmethoden. Basierend auf thematische LU/LC Karten wurden Serien von optimierten Algorithmen entwickelt, um die Dynamik in LU/LC Einheiten darzustellen. Deshalb wurden für Detailänderung "von-bis"-Informationsklassen sowie Veränderungsstatistiken erstellt. Ferner wurden die erzeugten Änderungskarten bewertet, was zeigte, dass die Genauigkeit der Änderungskarten konstant hoch ist. Aggregiert auf die Gemeinde-Ebene bieten Sozialerhebungen der Haushaltsdaten eine umfassende zusätzliche Sichtweise auf die Fernerkundungsdaten. Die vorher festgelegten degradierten und erfolgreich wiederhergestellten Hot Spots wurden untersucht. Die Studie verwendet einen gut gestalteten Fragebogen um Faktoren die die Dynamik der Änderung der Landbedeckung und mögliche Lösungen, die auf der Wahrnehmung der Gemeinden basieren, anzusprechen. Auf der Ebene des operativen strukturellen Waldbestandes wird die Begründung für die Einbeziehung dieser Analysen angegeben um semi-automatische OBIA Metriken zu schätzen, die aus dem Wald-Attribut durch automatisierte Segmentierungsalgorithmen in den Baumkronen abgegrenzt oder Cluster von Kronen Ebenen erworben wird. Korrelations- und Regressionsanalysen wurden angewandt, um die Beziehungen zwischen einer Vielzahl von spektralen und strukturellen Metriken und den aus den Untersuchungsgebieten abgeleiteten Waldattributen zu identifizieren. Die Ergebnisse des OBIA Rahmens zeigen starke Beziehungen und präzise Schätzungen. Die besten Modelle waren mit einem unabhängigen Satz von kreuz-validierten Feldproben ausgestattet, welche hohe Genauigkeiten ergaben. Eine wichtige Frage ist, wie die räumliche Auflösung und die verwendete Bandbreite die Qualität der entwickelten Modelle auch auf der Grundlage der verschiedenen untersuchten Sensoren beeinflussen. Schließlich zeigt die Studie, dass OBIA in der Lage ist, als ein effizienter und genauer Ansatz Kenntnisse über die Landfunktionen zu erlangen, sei es bei operativen Attributen der Waldstruktur oder auch auf der kategorischen LU/LC Ebene. Außerdem zeigt der methodischen Rahmen eine mögliche Lösung um präzise Fakten und Zahlen über die Veränderungsdynamik und ihre Antriebskräfte zu ermitteln

    Assessing, monitoring and mapping forest resources in the Blue Nile Region of Sudan using an object-based image analysis approach

    Get PDF
    Following the hierarchical nature of forest resource management, the present work focuses on the natural forest cover at various abstraction levels of details, i.e. categorical land use/land cover (LU/LC) level and a continuous empirical estimation of local operational level. As no single sensor presently covers absolutely all the requirements of the entire levels of forest resource assessment, multisource imagery (i.e. RapidEye, TERRA ASTER and LANDSAT TM), in addition to other data and knowledge have been examined. To deal with this structure, an object-based image analysis (OBIA) approach has been assessed in the destabilized Blue Nile region of Sudan as a potential solution to gather the required information for future forest planning and decision making. Moreover, the spatial heterogeneity as well as the rapid changes observed in the region motivates the inspection for more efficient, flexible and accurate methods to update the desired information. An OBIA approach has been proposed as an alternative analysis framework that can mitigate the deficiency associated with the pixel-based approach. In this sense, the study examines the most popular pixel-based maximum likelihood classifier, as an example of the behavior of spectral classifier toward respective data and regional specifics. In contrast, the OBIA approach analyzes remotely sensed data by incorporating expert analyst knowledge and complimentary ancillary data in a way that somehow simulates human intelligence for image interpretation based on the real-world representation of the features. As the segment is the basic processing unit, various combinations of segmentation criteria were tested to separate similar spectral values into groups of relatively homogeneous pixels. At the categorical subtraction level, rules were developed and optimum features were extracted for each particular class. Two methods were allocated (i.e. Rule Based (RB) and Nearest Neighbour (NN) Classifier) to assign segmented objects to their corresponding classes. Moreover, the study attempts to answer the questions whether OBIA is inherently more precise at fine spatial resolution than at coarser resolution, and how both pixel-based and OBIA approaches can be compared regarding relative accuracy in function of spatial resolution. As anticipated, this work emphasizes that the OBIA approach is can be proposed as an advanced solution particulary for high resolution imagery, since the accuracies were improved at the different scales applied compare with those of pixel-based approach. Meanwhile, the results achieved by the two approaches are consistently high at a finer RapidEye spatial resolution, and much significantly enhanced with OBIA. Since the change in LU/LC is rapid and the region is heterogeneous as well as the data vary regarding the date of acquisition and data source, this motivated the implementation of post-classification change detection rather than radiometric transformation methods. Based on thematic LU/LC maps, series of optimized algorithms have been developed to depict the dynamics in LU/LC entities. Therefore, detailed change “from-to” information classes as well as changes statistics were produced. Furthermore, the produced change maps were assessed, which reveals that the accuracy of the change maps is consistently high. Aggregated to the community-level, social survey of household data provides a comprehensive perspective additionally to EO data. The predetermined hot spots of degraded and successfully recovered areas were investigated. Thus, the study utilized a well-designed questionnaire to address the factors affecting land-cover dynamics and the possible solutions based on local community's perception. At the operational structural forest stand level, the rationale for incorporating these analyses are to offer a semi-automatic OBIA metrics estimates from which forest attribute is acquired through automated segmentation algorithms at the level of delineated tree crowns or clusters of crowns. Correlation and regression analyses were applied to identify the relations between a wide range of spectral and textural metrics and the field derived forest attributes. The acquired results from the OBIA framework reveal strong relationships and precise estimates. Furthermore, the best fitted models were cross-validated with an independent set of field samples, which revealed a high degree of precision. An important question is how the spatial resolution and spectral range used affect the quality of the developed model this was also discussed based on the different sensors examined. To conclude, the study reveals that the OBIA has proven capability as an efficient and accurate approach for gaining knowledge about the land features, whether at the operational forest structural attributes or categorical LU/LC level. Moreover, the methodological framework exhibits a potential solution to attain precise facts and figures about the change dynamics and its driving forces.Da das Waldressourcenmanagement hierarchisch strukturiert ist, beschäftigt sich die vorliegende Arbeit mit der natürlichen Waldbedeckung auf verschiedenen Abstraktionsebenen, das heißt insbesondere mit der Ebene der kategorischen Landnutzung / Landbedeckung (LU/LC) sowie mit der kontinuierlichen empirischen Abschätzung auf lokaler operativer Ebene. Da zurzeit kein Sensor die Anforderungen aller Ebenen der Bewertung von Waldressourcen und von Multisource-Bildmaterialien (d.h. RapidEye, TERRA ASTER und LANDSAT TM) erfüllen kann, wurden zusätzlich andere Formen von Daten und Wissen untersucht und in die Arbeit mit eingebracht. Es wurde eine objekt-basierte Bildanalyse (OBIA) in einer destabilisierten Region des Blauen Nils im Sudan eingesetzt, um nach möglichen Lösungen zu suchen, erforderliche Informationen für die zukünftigen Waldplanung und die Entscheidungsfindung zu sammeln. Außerdem wurden die räumliche Heterogenität, sowie die sehr schnellen Änderungen in der Region untersucht. Dies motiviert nach effizienteren, flexibleren und genaueren Methoden zu suchen, um die gewünschten aktuellen Informationen zu erhalten. Das Konzept von OBIA wurde als Substitution-Analyse-Rahmen vorgeschlagen, um die Mängel vom früheren pixel-basierten Konzept abzumildern. In diesem Sinne untersucht die Studie die beliebtesten Maximum-Likelihood-Klassifikatoren des pixel-basierten Konzeptes als Beispiel für das Verhalten der spektralen Klassifikatoren in dem jeweiligen Datenbereich und der Region. Im Gegensatz dazu analysiert OBIA Fernerkundungsdaten durch den Einbau von Wissen des Analytikers sowie kostenlose Zusatzdaten in einer Art und Weise, die menschliche Intelligenz für die Bildinterpretation als eine reale Darstellung der Funktion simuliert. Als ein Segment einer Basisverarbeitungseinheit wurden verschiedene Kombinationen von Segmentierungskriterien getestet um ähnliche spektrale Werte in Gruppen von relativ homogenen Pixeln zu trennen. An der kategorische Subtraktionsebene wurden Regeln entwickelt und optimale Eigenschaften für jede besondere Klasse extrahiert. Zwei Verfahren (Rule Based (RB) und Nearest Neighbour (NN) Classifier) wurden zugeteilt um die segmentierten Objekte der entsprechenden Klasse zuzuweisen. Außerdem versucht die Studie die Fragen zu beantworten, ob OBIA in feiner räumlicher Auflösung grundsätzlich genauer ist als eine gröbere Auflösung, und wie beide, das pixel-basierte und das OBIA Konzept sich in einer relativen Genauigkeit als eine Funktion der räumlichen Auflösung vergleichen lassen. Diese Arbeit zeigt insbesondere, dass das OBIA Konzept eine fortschrittliche Lösung für die Bildanalyse ist, da die Genauigkeiten - an den verschiedenen Skalen angewandt - im Vergleich mit denen der Pixel-basierten Konzept verbessert wurden. Unterdessen waren die berichteten Ergebnisse der feineren räumlichen Auflösung nicht nur für die beiden Ansätze konsequent hoch, sondern durch das OBIA Konzept deutlich verbessert. Die schnellen Veränderungen und die Heterogenität der Region sowie die unterschiedliche Datenherkunft haben dazu geführt, dass die Umsetzung von Post-Klassifizierungs- Änderungserkennung besser geeignet ist als radiometrische Transformationsmethoden. Basierend auf thematische LU/LC Karten wurden Serien von optimierten Algorithmen entwickelt, um die Dynamik in LU/LC Einheiten darzustellen. Deshalb wurden für Detailänderung "von-bis"-Informationsklassen sowie Veränderungsstatistiken erstellt. Ferner wurden die erzeugten Änderungskarten bewertet, was zeigte, dass die Genauigkeit der Änderungskarten konstant hoch ist. Aggregiert auf die Gemeinde-Ebene bieten Sozialerhebungen der Haushaltsdaten eine umfassende zusätzliche Sichtweise auf die Fernerkundungsdaten. Die vorher festgelegten degradierten und erfolgreich wiederhergestellten Hot Spots wurden untersucht. Die Studie verwendet einen gut gestalteten Fragebogen um Faktoren die die Dynamik der Änderung der Landbedeckung und mögliche Lösungen, die auf der Wahrnehmung der Gemeinden basieren, anzusprechen. Auf der Ebene des operativen strukturellen Waldbestandes wird die Begründung für die Einbeziehung dieser Analysen angegeben um semi-automatische OBIA Metriken zu schätzen, die aus dem Wald-Attribut durch automatisierte Segmentierungsalgorithmen in den Baumkronen abgegrenzt oder Cluster von Kronen Ebenen erworben wird. Korrelations- und Regressionsanalysen wurden angewandt, um die Beziehungen zwischen einer Vielzahl von spektralen und strukturellen Metriken und den aus den Untersuchungsgebieten abgeleiteten Waldattributen zu identifizieren. Die Ergebnisse des OBIA Rahmens zeigen starke Beziehungen und präzise Schätzungen. Die besten Modelle waren mit einem unabhängigen Satz von kreuz-validierten Feldproben ausgestattet, welche hohe Genauigkeiten ergaben. Eine wichtige Frage ist, wie die räumliche Auflösung und die verwendete Bandbreite die Qualität der entwickelten Modelle auch auf der Grundlage der verschiedenen untersuchten Sensoren beeinflussen. Schließlich zeigt die Studie, dass OBIA in der Lage ist, als ein effizienter und genauer Ansatz Kenntnisse über die Landfunktionen zu erlangen, sei es bei operativen Attributen der Waldstruktur oder auch auf der kategorischen LU/LC Ebene. Außerdem zeigt der methodischen Rahmen eine mögliche Lösung um präzise Fakten und Zahlen über die Veränderungsdynamik und ihre Antriebskräfte zu ermitteln

    A qualitative framework to learn from Failures: reducing risks and developing effective financial policies

    Get PDF
    This article explores policy failures phenomena and makes suggestions to draw lessons from past mistakes in order to improve financial policies in the future. Existing studies offer limited insights into the methodology of policy failure analysis, since studies generally focus on the mere conceptualization of the topic. This article attempts to answer a key question, namely how to develop a qualitative framework to analyse financial disasters and determine lessons from past financial catastrophes. The results indicate that the proposed framework can inform policy-makers and legislative stakeholders in endeavours to develop more effective financial policies and reduce financial failure risks

    Echocardiography in the evaluation of chest pain in the emergency department

    Get PDF
    Background: A challenge for clinicians in emergency departments (EDs) is rapid identification of those patients with chest pain who require admission and urgent management and those with low clinical risk who can be discharged safely from the ED. This study was designed with an aim to evaluate the ability of two-dimensional transthoracic echocardiography (2D-TTE) to determine causes of acute chest pain in patients presenting to the ED in order to decide whether hospital admission and further investigations were needed. Material/Methods: A total of 250 consecutive patients admitted with chest pain, were enrolled in this prospective study. Patients were divided into three groups: high risk, moderate risk, and low risk of cardiac events, according to cardiovascular risk factors. 2D-TTE was obtained using the HI vision Avius ultrasound unit (Hitachi). Statistical analysis was performed with the Statistical Package for the Social Sciences (SPSS), version 20. Results: Ischemic and/or non-ischemic heart diseases (IHD and/or NIHD) were detected in 147 (86.5%), 13 (7.6%), and 10 (5.9%) patients with high, moderate, and low risk, respectively. 2D-TTE was characterized by sensitivity of 85.86%, specificity of 100%, and positive predictive value (PPV) of 100% for detecting causes of chest pain. Conclusions: 2D-TTE increased specificity and sensitivity of detecting causes of chest pain, when compared to patient history, clinical findings, and electrocardiography (ECG). 2D-TTE can be used to help determine the need for hospital admission, to confirm or exclude diagnosis, and guide urgent therapy

    Sediment Yield Problems in Khassa Chai Watershed Using Hydrologic Models

    Get PDF
    Upland erosion and sedimentation are one of the severe problems which faces dams as sediments occupy spaces within reservoirs storage, hence, decreasing live water storage which is the main purpose of dam’s construction. Iraq is one of the countries that will face a significant shortage of water income as a result of both the increment in water demand and of the reduction of water shares from the source countries. Thus, the existing dams in Iraq represent a strategic resource to fulfill water demands, and the sedimentation at these dams is studied to assess the quantity of sediments that reach to these reservoirs and decrease available water volume and useful life of reservoir. In the current study, Khassa Chai Dam is located in the Northeast of Iraq and its main watershed basin covers an area of about 412 km2 between Kirkuk and Al Sulaymaniyah Governorates has been selected to estimate and predict the amount of sediment yield based on 30 years of daily climate data and the events of different intensity rainstorms. Automated geospatial watershed assessment (AGWA) tool model has been used to simulate Khassa Chai Dam catchment area. This model utilizes the geographic information system (GIS) application to analyze the required data from GIS layer for digital elevation model, soil type, land use, and land cover by interference with the required climate data. The key components of AGWA model are the soil and water assessment tool model and kinematic runoff and erosion (KINEROS) model which are able to simulate complex watershed behavior to explicitly account for spatial variability of soils, rainfall distribution patterns, and vegetation. The hydrologic characteristics for Khassa Chai catchment area according to the SWAT outputs show that the most erosive sub-basins are not able to deliver the eroded material or sediments to the reservoir due to their transmission losses, percolation, and other minor obstacles. KINEROS model simulation for sediment yield is much closer to the behavior of Khassa Chai watershed in erosion and sediment transport according to the single storm events and for individually selected sub-watersheds which are closed in their location to reservoir inlet

    The Role of Islamic Social Finance in Mitigating Humanitarian Crises

    Get PDF
    The economic shutdown resulting from the COVID-19 pandemic across countries has caused huge impacts on various industries which are cutting down production and jobs. This led to many socio-economic risks, such as high unemployment rates, low income rates, increasing risks of poverty and hunger. This study explores the validity of the proposition that the Islamic social finance have an effective role in mitigating the humanitarian crises risks. So the paper tries to provide a multi-range strategy for maximize the benefit from Islamic social financing tools such as zakat, sadaqah, and waqf in short, medium and long range, and choosing the well-suited tool in each range of the strategy, in order to effective handling the social impacts of COVID-19. This paper reviews the conceptual definitions of Islamic social finance, and its various instruments. The study relied primarily on sources gathered from ongoing researches, news articles, reports, and information recorded by verified online sources of information. The results indicate that the multi-range strategy of Islamic social finance providing an innovative way which can helps governments and policy makers for manage the crisis during and after the COVID-19 pandemic. Keywords; humanitarian crises; COVID-19 impacts; Islamic social finance; Islamic social finance tool

    Exploring the Video Productions of Egyptian Applied Arts Students

    Get PDF
    EXPLORING THE VIDEO PRODUCTIONS OF EGYPTIAN APPLIED ARTS STUDENTS AbstractThis paper summarizes the key findings identified during a research project on the use of video for youth self-expression and communication. The project was conducted within the department of Photography, Cinema and Television, Faculty of Applied Arts, Helwan University (Egypt), where this researcher works as a lecturer of media production. Over one academic year, and during a level-3 media production course, the researcher was involved in teaching 16 young Egyptian students from different background, how to produce short videos. In groups, the students planned and produced several short videos on a range of themes. Afterwards, selections from the students' productions were presented to a sample of 23 adolescents representing the students in other academic levels from the same department. The viewers watched the produced videos and their responses to each production were observed and analyzed. The viewers' comments were..

    Word Sense Disambiguation for clinical abbreviations

    Get PDF
    Abbreviations are extensively used in electronic health records (EHR) of patients as well as medical documentation, reaching 30-50% of the words in clinical narrative. There are more than 197,000 unique medical abbreviations found in the clinical text and their meanings vary depending on the context in which they are used. Since data in electronic health records could be shareable across health information systems (hospitals, primary care centers, etc.) as well as others such as insurance companies information systems, it is essential determining the correct meaning of the abbreviations to avoid misunderstandings. Clinical abbreviations have specific characteristic that do not follow any standard rules for creating them. This makes it complicated to find said abbreviations and corresponding meanings. Furthermore, there is an added difficulty to working with clinical data due to privacy reasons, since it is essential to have them in order to develop and test algorithms. Word sense disambiguation (WSD) is an essential task in natural language processing (NLP) applications such as information extraction, chatbots and summarization systems among others. WSD aims to identify the correct meaning of the ambiguous word which has more than one meaning. Disambiguating clinical abbreviations is a type of lexical sample WSD task. Previous research works adopted supervised, unsupervised and Knowledge-based (KB) approaches to disambiguate clinical abbreviations. This thesis aims to propose a classification model that apart from disambiguating well known abbreviations also disambiguates rare and unseen abbreviations using the most recent deep neural network architectures for language modeling. In clinical abbreviation disambiguation several resources and disambiguation models were encountered. Different classification approaches used to disambiguate the clinical abbreviations were investigated in this thesis. Considering that computers do not directly understand texts, different data representations were implemented to capture the meaning of the words. Since it is also necessary to measure the performance of algorithms, the evaluation measurements used are discussed. As the different solutions proposed to clinical WSD we have explored static word embeddings data representation on 13 English clinical abbreviations of the UMN data set (from University of Minnesota) by testing traditional supervised machine learning algorithms separately for each abbreviation. Moreover, we have utilized a transformer-base pretrained model that was fine-tuned as a multi-classification classifier for the whole data set (75 abbreviations of the UMN data set). The aim of implementing just one multi-class classifier is to predict rare and unseen abbreviations that are most common in clinical narrative. Additionally, other experiments were conducted for a different type of abbreviations (scientific abbreviations and acronyms) by defining a hybrid approach composed of supervised and knowledge-based approaches. Most previous works tend to build a separated classifier for each clinical abbreviation, tending to leverage different data resources to overcome the data acquisition bottleneck. However, those models were restricted to disambiguate terms that have been seen in trained data. Meanwhile, based on our results, transfer learning by fine-tuning a transformer-based model could predict rare and unseen abbreviations. A remaining challenge for future work is to improve the model to automate the disambiguation of clinical abbreviations on run-time systems by implementing self-supervised learning models.Las abreviaturas se utilizan ampliamente en las historias clínicas electrónicas de los pacientes y en mucha documentación médica, llegando a ser un 30-50% de las palabras empleadas en narrativa clínica. Existen más de 197.000 abreviaturas únicas usadas en textos clínicos siendo términos altamente ambiguos El significado de las abreviaturas varía en función del contexto en el que se utilicen. Dado que los datos de las historias clínicas electrónicas pueden compartirse entre servicios, hospitales, centros de atención primaria así como otras organizaciones como por ejemplo, las compañías de seguros es fundamental determinar el significado correcto de las abreviaturas para evitar además eventos adversos relacionados con la seguridad del paciente. Nuevas abreviaturas clínicas aparecen constantemente y tienen la característica específica de que no siguen ningún estándar para su creación. Esto hace que sea muy difícil disponer de un recurso con todas las abreviaturas y todos sus significados. A todo esto hay que añadir la dificultad para trabajar con datos clínicos por cuestiones de privacidad cuando es esencial disponer de ellos para poder desarrollar algoritmos para su tratamiento. La desambiguación del sentido de las palabras (WSD, en inglés) es una tarea esencial en tareas de procesamiento del lenguaje natural (PLN) como extracción de información, chatbots o generadores de resúmenes, entre otros. WSD tiene como objetivo identificar el significado correcto de una palabra ambigua (que tiene más de un significado). Esta tarea se ha abordado previamente utilizando tanto enfoques supervisados, no supervisados así como basados en conocimiento. Esta tesis tiene como objetivo definir un modelo de clasificación que además de desambiguar abreviaturas conocidas desambigüe también abreviaturas menos frecuentes que no han aparecido previamente en los conjuntos de entrenaminto utilizando las arquitecturas de redes neuronales profundas más recientes relacionadas ocn los modelos del lenguaje. En la desambiguación de abreviaturas clínicas se emplean diversos recursos y modelos de desambiguación. Se han investigado los diferentes enfoques de clasificación utilizados para desambiguar las abreviaturas clínicas. Dado que un ordenador no comprende directamente los textos, se han implementado diferentes representaciones de textos para capturar el significado de las palabras. Puesto que también es necesario medir el desempeño de cualquier algoritmo, se describen también las medidas de evaluación utilizadas. La mayoría de los trabajos previos se han basado en la construcción de un clasificador separado para cada abreviatura clínica. De este modo, tienden a aprovechar diferentes recursos de datos para superar el cuello de botella de la adquisición de datos. Sin embargo, estos modelos se limitaban a desambiguar con los datos para los que el sistema había sido entrenado. Se han explorado además representaciones basadas vectores de palabras (word embeddings) estáticos para 13 abreviaturas clínicas en el corpus UMN en inglés (de la University of Minnesota) utilizando algoritmos de clasificación tradicionales de aprendizaje automático supervisados (un clasificador por cada abreviatura). Se ha llevado a cabo un segundo experimento utilizando un modelo multi-clasificador sobre todo el conjunto de las 75 abreviaturas del corpus UMN basado en un modelo Transformer pre-entrenado. El objetivo ha sido implementar un clasificador multiclase para predecir también abreviaturas raras y no vistas. Se realizó un experimento adicional para siglas científicas en documentos de dominio abierto mediante la aplicación de un enfoque híbrido compuesto por enfoques supervisados y basados en el conocimiento. Así, basándonos en los resultados de esta tesis, el aprendizaje por transferencia (transfer learning) mediante el ajuste (fine-tuning) de un modelo de lenguaje preentrenado podría predecir abreviaturas raras y no vistas sin necesidad de entrenarlas previamente. Un reto pendiente para el trabajo futuro es mejorar el modelo para automatizar la desambiguación de las abreviaturas clínicas en tiempo de ejecución mediante la implementación de modelos de aprendizaje autosupervisados.Programa de Doctorado en Ciencia y Tecnología Informática por la Universidad Carlos III de MadridPresidente: Israel González Carrasco.- Secretario: Leonardo Campillos Llanos.- Vocal: Ana María García Serran
    corecore